在不久的将来,自动驾驶的开发将变得更加复杂,因为这些车辆不仅会依靠自己的传感器,而且还与其他车辆和基础设施进行交流以合作和改善驾驶体验。为此,需要进行一些研究领域,例如机器人技术,沟通和控制,以实施未来的方法。但是,每个领域首先关注其组件的开发,而组件可能对整个系统产生的影响仅在后期考虑。在这项工作中,我们集成了机器人技术,通信和控制的仿真工具,即ROS2,Omnet ++和MATLAB来评估合作驾驶场景。可以利用该框架使用指定工具来开发各个组件,而最终评估可以在完整的情况下进行,从而可以模拟高级多机器人应用程序以进行合作驾驶。此外,它可以用于集成其他工具,因为集成以模块化方式完成。我们通过在合作自适应巡航控制(CACC)和ETSI ITS-G5通信体系结构下展示排量场景来展示该框架。此外,我们比较了理论分析和实际案例研究之间控制器性能的差异。
translated by 谷歌翻译
在视频中,人类的行为是三维(3D)信号。这些视频研究了人类行为的时空知识。使用3D卷积神经网络(CNN)研究了有希望的能力。 3D CNN尚未在静止照片中为其建立良好的二维(2D)等效物获得高输出。董事会3D卷积记忆和时空融合面部训练难以防止3D CNN完成非凡的评估。在本文中,我们实施了混合深度学习体系结构,该体系结构结合了Stip和3D CNN功能,以有效地增强3D视频的性能。实施后,在每个时空融合圈中进行训练的较详细和更深的图表。训练模型在处理模型的复杂评估后进一步增强了结果。视频分类模型在此实现模型中使用。引入了使用深度学习的多媒体数据分类的智能3D网络协议,以进一步了解人类努力中的时空关联。在实施结果时,著名的数据集(即UCF101)评估了提出的混合技术的性能。结果击败了提出的混合技术,该混合动力技术基本上超过了最初的3D CNN。将结果与文献的最新框架进行比较,以识别UCF101的行动识别,准确度为95%。
translated by 谷歌翻译